년 AI 및 로봇 연구 동향
1. 서론: 1987년, AI의 전환점 - ’겨울’의 시작과 새로운 패러다임의 태동
1987년은 인공지능(AI) 역사상 가장 중요한 전환점 중 하나로 기록된다. 이 해는 상업적 AI 시장의 붕괴, 즉 ’두 번째 AI 겨울’의 시작이라는 거시적 침체와, 훗날 AI 분야를 지배하게 될 새로운 패러다임(신경망, 통계적 접근, 행동 기반 로보틱스)이 학문적으로 만개한 미시적 융성이 극명한 대조를 이룬 해였다. 본 보고서는 이 이중적 성격을 심층 분석하여, 1987년의 주요 연구 발표들이 어떻게 ’겨울’의 원인이 된 기존 패러다임의 한계를 드러내는 동시에, 현대 AI의 기술적 토대를 마련했는지를 논증한다.
1987년의 시대적 배경은 상징주의 AI의 황금기가 저물어가는 모습을 명확히 보여준다. 가장 상징적인 사건은 LISP 머신 시장의 붕괴였다.1 1980년대 초중반 AI 연구, 특히 전문가 시스템 개발의 핵심 하드웨어였던 LISP 머신은 Symbolics, LISP Machines Inc.와 같은 회사들이 주도하며 하나의 산업을 형성했다. 그러나 1987년에 이르러 Sun Microsystems 등이 제작한 범용 워크스테이션의 성능이 비약적으로 향상되면서, 값비싼 특수 목적 하드웨어의 필요성이 급격히 감소했다. 더 저렴하고 유연한 범용 하드웨어에서 LISP 환경을 구동할 수 있게 되자, 반도체 산업 전체가 단 1년 만에 재편될 정도로 LISP 머신 시장은 급격히 붕괴했다.1
이러한 하드웨어 시장의 변화는 LISP 머신의 ’킬러 애플리케이션’이었던 전문가 시스템의 확산세에도 영향을 미쳤다. 1980년대 중반까지 전문가 시스템은 기업 환경에서 폭발적으로 확산되며 AI 기술의 상업적 성공을 견인했다.2 그러나 1987년을 기점으로 전문가의 지식을 명시적인 규칙으로 변환하는 과정의 어려움(지식 획득 병목)과 시스템 유지보수의 복잡성이라는 근본적인 한계가 드러나기 시작하며 관련 투자가 감소하는 추세로 접어들었다.3
이러한 상업적, 산업적 침체 분위기는 1984년 미국 인공지능 학회(AAAI) 연례 회의에서 AI 선구자인 Roger Schank와 Marvin Minsky가 처음 경고했던 ’AI 겨울’이 현실화되고 있음을 시사했다.4 그들은 과도한 기대와 실망, 그리고 그에 따른 연구 자금 삭감의 악순환이 AI 분야 전체를 위협할 것이라고 예견했고, 3년 후 그 예측은 현실이 되기 시작했다.1
그러나 이러한 산업적 침체와는 대조적으로, 1987년의 학술계는 미래 기술의 씨앗이 되는 중요한 연구들로 가득했다. AAAI-87 학회에서는 상징주의 AI의 최신 연구인 불완전한 지식 하에서의 추론(Default Reasoning)이 두각을 나타냈고 6, 밀라노에서 열린 IJCAI-87에서는 자연어 처리와 컴퓨터 비전 분야의 새로운 접근법들이 제시되었다.7 IEEE ICRA 1987에서는 로봇 제어 분야의 패러다임을 전환시킨 기념비적인 연구들이 발표되었으며 9, 특히 제1회 NIPS 학회의 개최는 1986년 역전파 알고리즘의 재발견 이후 폭발적으로 증가한 신경망 연구의 새로운 구심점이 되었다.11
1987년의 이러한 상반된 모습은 단순한 우연이 아니었다. 규칙 기반 상징주의 AI와 이를 뒷받침하던 하드웨어 중심 패러다임의 상업적 실패는 새로운 지적, 경제적 공간을 창출했다. 바로 이 공간으로, LISP 머신을 대체한 범용 컴퓨터에서 더 효율적으로 작동하는 알고리즘 중심의 새로운 패러다임, 즉 연결주의와 통계적 방법론이 파고들 수 있었다. 따라서 1987년은 낡은 시대의 종말과 새로운 시대의 개막이 교차하는, AI 역사의 가장 극적인 분기점 중 하나로 평가되어야 한다.
표 1: 1987년 주요 AI 및 로보틱스 학술대회 개요
| 학회명 | 주요 발표/연구 분야 | 특징 / 개최지 |
|---|---|---|
| AAAI-87 | 불완전한 지식 하에서의 추론 (Default Reasoning) | 상징주의 AI의 최신 연구가 두각을 나타냄 |
| IJCAI-87 | 자연어 처리, 컴퓨터 비전 | 이탈리아 밀라노에서 개최 |
| IEEE ICRA 1987 | 로봇 제어 | 로봇 제어 분야의 패러다임을 전환시킨 연구 발표 |
| NIPS 1987 | 신경망 (Neural Networks) | 제1회 학회 개최, 신경망 연구의 새로운 구심점 역할 |
2. 상징주의 AI의 정점과 그늘 - 전문가 시스템과 논리 기반 추론
1987년은 상징주의 AI가 학문적, 상업적으로 정점에 달했던 시기이자 동시에 그 한계가 명확히 드러나기 시작한 해였다. 전문가 시스템은 산업계 전반으로 확산되었고, 학계에서는 인간의 상식적 추론을 모방하려는 정교한 논리 연구가 꽃을 피웠다. 그러나 이러한 성취의 이면에는 패러다임의 근본적인 취약성이 존재했으며, 이는 곧 다가올 ’겨울’의 전조가 되었다.
2.1 1980년대 전문가 시스템의 확산
전문가 시스템은 특정 분야에서 인간 전문가의 의사결정 능력을 모방하도록 설계된 AI 소프트웨어였다.2 그 핵심 구조는 전문가의 지식을 담고 있는 ’지식 베이스(knowledge base)’와, 이 지식을 바탕으로 새로운 사실을 추론하는 ’추론 엔진(inference engine)’으로 구성되었다. 지식 베이스는 주로 “만약 A이면, B이다(if-then)” 형태의 생성 규칙(production rule)들로 이루어져 있었다.3
1980년대에 이르러 전문가 시스템은 AI 분야 최초의 진정한 상업적 성공 사례로 부상했다. Fortune 500 기업의 3분의 2가 이 기술을 도입했으며, 대학에서는 전문가 시스템 강좌가 개설되는 등 AI의 미래를 대표하는 기술로 여겨졌다.3 이러한 확산의 배경에는 1981년 IBM PC의 등장이 있었다. 이전까지 전문가 시스템 개발은 주로 고가의 LISP 머신에서 이루어졌으나, PC의 보급으로 인해 기업들은 훨씬 저렴한 비용으로 자체적인 전문가 시스템을 구축할 수 있게 되었다.3
이 시기의 성공을 상징하는 대표적인 사례는 다음과 같다.
-
XCON (eXpert CONfigurer): Digital Equipment Corporation(DEC)이 카네기 멜런 대학과 협력하여 개발한 XCON은 상업적으로 가장 성공한 초기 전문가 시스템 중 하나였다. 이 시스템은 고객이 주문하는 복잡한 VAX 컴퓨터 시스템의 구성 요소들이 서로 호환되는지 확인하고 올바른 부품을 추천하는 역할을 수행했다. XCON은 도입 후 6년 동안 약 4천만 달러의 비용을 절감하는 놀라운 성과를 거두며 전문가 시스템의 상업적 가치를 입증했다.1
-
SID (Synthesis of Integral Design): 1982년에 개발된 SID는 대규모 제품 설계에 사용된 최초의 전문가 시스템이었다. LISP로 작성된 이 시스템은 VAX 9000 CPU 로직 게이트의 93%를 자동으로 생성했다. 여러 전문 논리 설계자들이 만든 규칙들을 입력받아, SID는 이 규칙들을 확장하고 조합하여 때로는 인간 전문가의 능력을 뛰어넘는 최적화된 설계를 도출해냈다. 이는 전문가 시스템이 단순한 조언 제공을 넘어 창의적인 설계 작업까지 수행할 수 있는 가능성을 보여준 사례였다.3
2.2 상징주의 AI의 학문적 최전선: AAAI-87
상업적 성공과 더불어 학문적 연구도 활발히 진행되었다. 1987년 7월 시애틀에서 개최된 제6회 AAAI 학회(AAAI-87)는 당시 상징주의 AI 연구의 최전선을 보여주는 장이었다. 총 715편의 논문이 제출되어 그중 149편만이 채택될 정도로 경쟁이 치열했으며, 학회는 단순한 점진적 개선이나 기존 시스템의 재구현을 배격하고 이론적으로나 응용적으로 해당 분야의 최첨단(state-of-the-art)을 발전시키는 연구를 엄선하여 발표했다.6
특히 이 학회에서 주목받은 연구 분야는 불완전한 정보 하에서의 추론 문제였다. 최우수 논문상 수상작 중 하나인 James P. Delgrande의 “An Approach to Default Reasoning Based on a First-Order Conditional Logic” 은 이러한 흐름을 잘 보여준다.6 기본 추론(Default Reasoning)이란 “별다른 언급이 없으면, 새는 날 수 있다“와 같은 일반적인 상식을 다루는 분야이다. 이러한 규칙은 “펭귄은 새지만 날지 못한다“와 같은 예외 상황을 만나면 철회되어야 한다. 이는 엄격한 형식 논리만으로는 모델링하기 어려운, 인간의 유연하고 상식적인 추론 능력을 컴퓨터로 구현하려는 시도였다. XCON과 같이 잘 정의되고 제약된 ‘닫힌 세계(closed world)’ 문제에서 큰 성공을 거둔 전문가 시스템과 달리, Delgrande의 연구는 예측 불가능하고 예외가 많은 ’열린 세계(open world)’의 복잡성을 다루려는 상징주의 AI의 학문적 야망을 보여주었다.
2.3 그늘의 시작: 패러다임의 한계와 시장 붕괴
그러나 바로 이 지점에서 상징주의 AI의 근본적인 한계가 드러났다. XCON과 같은 상업 시스템의 성공은 매우 제약되고 논리적으로 명확한 영역에 국한되었다. 반면, 학계의 최전선에서 다루던 상식 추론과 같은 문제는 현실 세계의 방대한 지식과 미묘한 맥락을 규칙으로 표현해야 하는 엄청난 복잡성에 직면했다. 전문가의 머릿속에 있는 암묵적인 지식을 명시적인 규칙으로 추출하는 ‘지식 획득 병목(knowledge acquisition bottleneck)’ 현상과, 시스템의 규모가 커질수록 규칙 간의 상호작용을 관리하고 유지보수하는 것이 기하급수적으로 어려워지는 문제는 전문가 시스템의 발목을 잡았다.
결국 시장은 닫힌 세계에서의 성공이 열린 세계의 복잡한 문제로 쉽게 확장되지 않는다는 사실을 깨닫기 시작했다. 이러한 인식의 변화는 1987년 LISP 머신 시장의 붕괴와 맞물려 상징주의 AI의 상업적 겨울을 가속화했다.1 더 저렴하고 강력한 범용 워크스테이션이 등장하면서, 값비싼 전용 하드웨어에 기반한 AI 비즈니스 모델은 설 자리를 잃었다. AAAI-87에서 발표된 기본 추론 연구는 학문적으로는 중요했지만, 역설적으로 상업적 기대와 실제 기술 수준 사이의 거대한 간극을 보여주는 증거가 되었고, 이는 투자자들의 신뢰를 잃게 만드는 요인 중 하나로 작용했다.
3. 신경망의 부활 - 제1회 NIPS와 역전파 알고리즘의 확산
1987년은 상징주의 AI의 그늘이 짙어지던 해였지만, 동시에 오랫동안 잊혔던 연결주의(Connectionism), 즉 인공 신경망이 화려하게 부활한 해이기도 했다. 1986년 역전파 알고리즘의 재조명은 이 새로운 흐름의 기폭제가 되었고, 1987년 제1회 NIPS 학회의 개최는 신경망 연구가 AI의 주류로 진입하는 신호탄이었다.
3.1 시대적 배경: 역전파 알고리즘의 재조명
1970년대와 1980년대 초반은 신경망 연구에 있어 ’첫 번째 AI 겨울’이라 불릴 만큼 암흑기였다. 그러나 1986년, David Rumelhart, Geoffrey Hinton, Ronald Williams가 발표한 기념비적인 논문은 이 모든 것을 바꾸어 놓았다.14 그들은 다층 퍼셉트론(Multi-Layer Perceptron)과 같은 깊은 신경망을 효과적으로 학습시킬 수 있는 역전파(Backpropagation) 알고리즘을 널리 알렸다. 역전파 자체는 1970년대에 이미 여러 연구자에 의해 독립적으로 개발되었지만, 이 논문을 통해 그 중요성과 잠재력이 비로소 학계에 널리 인식되었다.15
역전파 알고리즘의 핵심은 미적분학의 연쇄 법칙(chain rule)을 신경망 학습에 효율적으로 적용한 것이다.14 그 과정은 다음과 같이 요약할 수 있다.
-
순전파(Forward Propagation): 입력 데이터가 신경망의 각 층을 순서대로 통과하며 최종 출력값을 계산한다.
-
오차 계산: 계산된 출력값과 실제 정답(target) 사이의 오차(error)를 비용 함수(cost function)를 통해 측정한다.
-
역전파(Backward Propagation): 계산된 오차를 출력층에서부터 입력층 방향으로 거꾸로 전파시킨다. 이 과정에서 연쇄 법칙을 사용하여 각 가중치(weight)와 편향(bias)이 최종 오차에 얼마나 기여했는지, 즉 비용 함수에 대한 각 매개변수의 편미분(gradient)을 계산한다.
-
가중치 업데이트: 계산된 그래디언트를 사용하여 경사 하강법(gradient descent)과 같은 최적화 알고리즘으로 각 가중치를 업데이트하여 오차를 줄이는 방향으로 네트워크를 수정한다.
이 알고리즘의 등장은 이전에는 학습이 불가능하다고 여겨졌던 복잡한 비선형 문제를 신경망으로 해결할 수 있는 길을 열었으며, 이는 1987년 이후 신경망 연구가 폭발적으로 증가하는 직접적인 원동력이 되었다.18
3.2 제1회 NIPS 학회: 새로운 시대의 개막
이러한 학문적 열기를 배경으로, 1987년 미국 콜로라도 주 덴버에서 제1회 신경 정보 처리 시스템 학회(Neural Information Processing Systems, NIPS)가 개최되었다.11 이 학회의 창설은 신경망 연구가 더 이상 변방의 학문이 아니라, AI 연구의 중요한 한 축으로 자리 잡았음을 알리는 상징적인 사건이었다.
초기 NIPS는 그 이름에서 알 수 있듯이, 단순히 인공적인 학습 시스템뿐만 아니라 생물학적 뇌의 정보 처리 방식을 이해하려는 목표를 함께 가지고 있었다. 이로 인해 기계 학습, 통계학, 컴퓨터 과학 연구자들뿐만 아니라 계산 신경과학, 심리학, 물리학 등 다양한 배경을 가진 연구자들이 모이는 독특한 학제적(interdisciplinary) 성격의 학회가 되었다.12 이러한 학풍은 포스터 세션을 구두 발표와 동등하게 대우하는 정책에서도 드러났는데, 이는 다양한 아이디어가 자유롭게 교류되는 장을 만들려는 의도였다.12
3.3 NIPS 1987의 주요 연구 동향 분석
제1회 NIPS 학회에서 발표된 논문 목록은 당시 신경망 연구의 핵심적인 관심사와 미래 방향성을 명확하게 보여준다.11
3.3.1 학습 알고리즘의 심화 및 확장
역전파 알고리즘이 재조명된 지 불과 1년 만에, 연구자들은 이를 더 복잡하고 강력한 네트워크 구조로 확장하려는 시도를 활발히 진행했다.
-
Fernando J. Pineda의 “Generalization of Back propagation to Recurrent and Higher Order Neural Networks” 는 이 시기 가장 중요한 이론적 진전 중 하나였다. 이 연구는 역전파를 피드백 연결을 가지는 순환 신경망(Recurrent Neural Networks, RNN)에 적용하는 일반화된 방법을 제시했다. RNN은 내부 상태(state)를 가짐으로써 시간적 순서가 있는 데이터(sequential data)를 처리할 수 있는 잠재력을 지녔다. Pineda의 연구는 이러한 RNN을 체계적으로 학습시킬 수 있는 이론적 토대를 마련했으며, 이는 훗날 자연어 처리와 시계열 분석 분야에서 LSTM, 트랜스포머와 같은 모델이 등장하는 데 결정적인 역할을 했다.11
-
A. J. Robinson과 F. Fallside의 “Static and Dynamic Error Propagation Networks with Application to Speech Coding” 은 역전파를 ’오차 전파(Error Propagation)’라는 더 넓은 개념의 틀 안에서 다루고, 이를 음성 코딩과 같은 구체적인 공학 문제에 적용하려는 시도를 보여주었다. 이는 신경망이 이론적 모델을 넘어 실제 문제 해결 도구로 사용될 수 있음을 보여주는 초기 사례였다.11
-
Stephen Jose Hanson과 David J. Burr의 “Minkowski-r Back-Propagation: Learning in Connectionist Models with Non-Euclidian Error Signals” 는 일반적인 제곱 오차(유클리드 거리) 대신, 더 일반화된 민코프스키 거리(Minkowski distance)를 오차 함수로 사용하는 역전파 알고리즘을 제안했다. 이는 문제의 특성에 따라 다양한 오차 척도를 사용할 수 있도록 알고리즘의 유연성과 일반성을 확장한 연구였다.11
3.3.2 하드웨어 구현 연구
대규모 신경망의 막대한 계산량을 처리하기 위한 전용 하드웨어, 즉 뉴로모픽(neuromorphic) 칩에 대한 연구 역시 초기부터 중요한 주제였다. Joshua Alspector 등의 “Stochastic Learning Networks and their Electronic Implementation” 과 Alexander Moopenn 등의 “Programmable Synaptic Chip for Electronic Neural Networks” 와 같은 연구들은 신경망 모델을 실리콘 칩에 직접 구현하여 계산을 가속화하려는 노력을 보여준다. 이는 소프트웨어 알고리즘의 발전과 하드웨어의 발전이 함께 가야 한다는 인식이 이미 이 시기부터 존재했음을 시사한다.20
NIPS 1987의 발표들은 연결주의 운동 내부에 존재했던 중요한 긴장 관계를 드러낸다. 한편에서는 James Bower 등의 연구처럼 뇌의 특정 영역(예: 후각 피질)을 시뮬레이션하여 생물학적 작동 원리를 탐구하려는 흐름이 있었다.11 다른 한편에서는 Pineda의 연구처럼 생물학적 유사성과는 무관하게, 공학적으로 강력한 문제 해결 도구를 만들려는 흐름이 있었다. 역전파 알고리즘 자체가 뇌에서 일어나는 실제 학습 과정과는 거리가 멀다는 비판이 있었음에도 불구하고, 공학적 효용성 때문에 널리 채택되었다. 역사는 후자의 접근법이 AI와 기계 학습의 주류가 되었음을 보여준다. 따라서 NIPS 1987은 계산 신경과학과 현대 딥러닝이라는 두 갈래의 길이 분기되기 시작한 중요한 순간을 포착한 역사적 스냅샷이라 할 수 있다.
4. 로보틱스의 혁신 - 행동 기반 제어와 동적 상호작용
1987년은 로보틱스 분야에서도 기존의 패러다임을 뒤흔드는 혁신적인 아이디어들이 등장한 해였다. 자율 이동 로봇 분야에서는 상징주의 AI에 기반한 전통적인 접근법에 대한 근본적인 반론이 제기되었고, 매니퓰레이터 제어 분야에서는 로봇과 환경 간의 복잡한 동적 상호작용을 다루기 위한 정교한 수학적 프레임워크가 제시되었다. 이 두 흐름은 1987년 IEEE 국제 로보틱스 및 자동화 학회(ICRA)에서 정점에 달했다.
4.1 자율 이동 로봇의 새로운 철학: 로드니 브룩스의 포섭 구조
1980년대 중반까지 자율 이동 로봇 연구는 ’인식-계획-행동(Sense-Plan-Act)’이라는 이름으로 대표되는 심사숙고형(deliberative) 패러다임이 지배적이었다.22 이 접근법은 로봇이 센서를 통해 주변 환경에 대한 완벽하고 상세한 내부 세계 모델(world model)을 구축하고, 이 모델을 기반으로 목표 달성을 위한 최적의 행동 계획을 수립한 후, 계획에 따라 행동을 실행하는 순차적인 과정을 따른다. 그러나 이 패러다임은 예측 불가능하고 동적으로 변화하는 실제 환경에서 심각한 한계를 드러냈다. 완벽한 모델을 구축하는 것은 거의 불가능했으며, 복잡한 계획을 수립하는 데 너무 많은 시간이 걸려 급변하는 상황에 실시간으로 대응하기 어려웠다.24
이러한 한계에 대한 대안으로, MIT의 로드니 브룩스(Rodney Brooks)는 1987년 ICRA에서 발표한 논문 “A hardware retargetable distributed layered architecture for mobile robot control” 을 통해 포섭 구조(Subsumption Architecture)라는 혁명적인 아이디어를 제안했다.10 이는 기존 패러다임에 대한 정면 도전이었다.
포섭 구조의 핵심 원리는 지능을 기능적으로 분해하는 대신, 행동의 복잡성에 따라 계층적으로 분해하는 것이다.24
-
계층적 행동 분해: 시스템은 ’장애물 회피’와 같은 가장 기본적인 행동을 수행하는 최하위 계층부터 시작하여, 그 위에 ‘배회하기’, ‘탐험하기’ 등 점차 더 복잡하고 목표 지향적인 행동을 수행하는 상위 계층들을 쌓아 올리는 방식으로 구성된다. 각 계층은 독립적으로 작동하는 행동 모듈들의 집합이다.24
-
하위 계층 우선과 중재 메커니즘: 하위 계층은 항상 활성화되어 로봇의 생존에 필수적인 기본적인 반응을 보장한다. 상위 계층은 더 높은 수준의 목표를 달성하기 위해 하위 계층의 출력을 중재한다. 이 중재는 두 가지 주요 메커니즘을 통해 이루어진다: **억제(Suppression)**는 하위 계층의 신호를 차단하고 자신의 신호로 대체하는 것이고, **금지(Inhibition)**는 하위 계층의 신호가 액추에이터로 전달되는 것을 막는 것이다.24
-
“세계는 그 자체로 최고의 모델이다(The world is its own best model)”: 포섭 구조는 복잡한 내부 세계 모델을 명시적으로 구축하고 유지하는 것을 거부한다. 대신, 센서 입력을 행동 출력에 직접 연결하는 수많은 반응형(reactive) 루프들을 통해 환경과 상호작용한다. 로봇의 행동으로 인해 변화된 세계는 다시 센서를 통해 감지되며, 이로써 세계 자체가 암묵적인 소통 매체이자 모델의 역할을 하게 된다.25
브룩스의 접근법은 Situatedness(로봇이 환경에 직접 위치함), Embodiment(물리적 실체를 가짐), Intelligence(지능은 환경과의 상호작용에서 나옴), Emergence(복잡한 행동은 단순한 행동들의 상호작용에서 창발함)라는 네 가지 핵심 철학에 기반한다.25 이는 지능이 추상적인 기호 조작의 결과가 아니라, 물리적 실체가 실제 세계와 겪는 동적인 상호작용의 과정에서 나타나는 창발적 현상이라는 급진적인 주장이었다.
4.2 매니퓰레이터 제어의 정교화: 운용 공간과 임피던스 제어
자율 이동 로봇 분야에서 철학적 전환이 일어나는 동안, 로봇 팔(manipulator) 제어 분야에서는 수학적 정교함이 극에 달하고 있었다. 특히 로봇이 환경과 물리적으로 접촉하며 작업을 수행할 때 발생하는 복잡한 동역학 문제를 해결하기 위한 두 가지 중요한 이론적 프레임워크가 1987년에 제시되었다.
4.2.1 운용 공간 공식화 (Operational Space Formulation)
스탠퍼드 대학의 Oussama Khatib은 1987년 IEEE Journal of Robotics and Automation에 발표한 기념비적인 논문 “A Unified Approach for Motion and Force Control of Robot Manipulators: The Operational Space Formulation” 에서 로봇 제어의 새로운 관점을 제시했다.27 기존의 로봇 제어는 주로 각 관절의 각도와 속도를 제어하는 관절 공간(joint space)에서 이루어졌다. 그러나 실제 작업은 로봇의 끝점, 즉 엔드 이펙터(end-effector)의 위치와 힘에 의해 정의된다. Khatib의 운용 공간 공식화는 바로 이 엔드 이펙터의 움직임을 직접 기술하는 운용 공간(operational space)에서 로봇의 동역학 모델을 수립하는 방법이다.29
이 접근법의 핵심은 로봇의 관절 공간 동역학을 운용 공간으로 투영하여, 엔드 이펙터의 가속도와 여기에 가해지는 힘 사이의 직접적인 관계를 나타내는 동역학 방정식을 유도하는 것이다.
- 운용 공간 동역학 방정식:
\Lambda(x)\ddot{x} + \mu(x, \dot{x}) + p(x) = F
이 식에서 x는 엔드 이펙터의 위치와 방향을 나타내는 운용 공간 좌표이며, F는 엔드 이펙터에 가해지는 힘 벡터이다. \Lambda(x)는 운용 공간에서의 로봇의 유효 관성 행렬(effective inertia matrix), \mu(x, \dot{x})는 코리올리 및 원심력 벡터, p(x)는 중력 벡터를 나타낸다.30 이 방정식은 엔드 이펙터의 움직임을 마치 단일 강체(rigid body)의 운동처럼 간결하게 기술할 수 있게 해준다.
이러한 모델링을 통해 로봇의 움직임 제어와 힘 제어를 하나의 통합된 프레임워크 안에서 다룰 수 있게 되었다. 특히 로봇의 자유도가 작업에 필요한 자유도보다 많은 리던던트 매니퓰레이터(redundant manipulator)의 경우, 운용 공간 공식화는 작업 수행에 필요한 토크와 로봇의 자세 제어(posture control)와 같은 부가적인 목표를 위한 토크를 동역학적으로 분리하는 명확한 해법을 제공했다.31
- 리던던트 매니퓰레이터 제어 토크:
\tau = J^T(q)F +\tau_0
여기서 \tau는 실제 관절에 가해지는 토크 벡터, J(q)는 자코비안 행렬, F는 엔드 이펙터에서 원하는 작업을 수행하기 위한 힘 벡터이다. 첫 번째 항 J^T(q)F는 주된 작업을 수행하는 토크 성분이며, 두 번째 항은 작업에 영향을 주지 않는 널 공간(null space)에서의 움직임을 제어하는 토크 성분(\tau_0)을 나타낸다.31
4.2.2 임피던스 제어 (Impedance Control)
MIT의 Neville Hogan은 로봇과 환경 간의 동적 상호작용을 제어하는 근본적으로 다른 접근법인 임피던스 제어(Impedance Control)를 발전시켰다. 그는 ICRA 1987에서 “Stable execution of contact tasks using impedance control” 을 발표하며 이 개념의 유효성을 보였다.10
임피던스 제어는 로봇의 위치나 힘을 특정 값으로 정확하게 제어하려는 기존 방식과 달리, 로봇과 환경 사이의 동적 관계 자체를 제어 목표로 삼는다.34 구체적으로, 외부에서 힘이 가해졌을 때 로봇이 위치적으로 얼마나 변형될지를 결정하는 관계, 즉 기계적 임피던스(mechanical impedance)를 프로그래밍한다. 이는 로봇을 목표 질량(mass), 강성(stiffness), 감쇠(damping)를 가지는 가상의 스프링-댐퍼 시스템처럼 동작하게 만드는 것과 같다.35 이 접근법은 로봇이 단단한 벽에 부딪히거나 예측 불가능한 외부 힘에 반응할 때, 충격을 부드럽게 흡수하고 안정적인 상호작용을 유지하는 데 매우 효과적이다.37
1987년 ICRA에서 동시에 발표된 브룩스의 포섭 구조와 카팁 및 호건의 정교한 제어 이론은 ’로봇 지능’에 대한 두 가지 근본적으로 다른 철학을 보여준다. 브룩스는 지능을 로봇 전체가 환경과 상호작용하며 나타나는 창발적 속성, 즉 ’체화된 반응 지능’으로 보았다. 반면, 카팁과 호건은 지능을 정교한 수학적 모델을 통해 특정 작업점의 상호작용을 정밀하게 제어하는 능력, 즉 ’탈체화된 심사숙고 지능’으로 정의했다. 이는 단순히 이동 로봇과 매니퓰레이터라는 적용 대상의 차이를 넘어, 로봇이 ’스마트’하다는 것이 무엇을 의미하는지에 대한 근본적인 관점의 차이를 드러낸다. 이 두 가지 철학은 오늘날까지도 로보틱스 연구의 양대 축을 형성하며, 현대의 많은 로봇 시스템은 이 두 접근법을 융합하는 형태로 발전하고 있다.
5. 언어와 시각의 재해석 - 통계적 자연어 처리와 능동적 비전 모델의 등장
1987년은 로보틱스뿐만 아니라 인공지능의 핵심 분야인 자연어 처리(NLP)와 컴퓨터 비전에서도 새로운 패러다임이 태동하던 시기였다. 언어 처리에서는 언어학적 규칙에 기반한 접근법의 한계를 넘어 대규모 데이터로부터 확률적 패턴을 학습하는 통계적 방법론이 부상하기 시작했고, 시각 분야에서는 물리적 원리를 기반으로 이미지 속에서 동적으로 형상을 찾아내는 능동적 모델이 등장했다.
5.1 규칙을 넘어 확률로: 통계적 기계 번역의 서막
1980년대까지 자연어 처리, 특히 기계 번역(Machine Translation) 분야는 주로 언어학자들이 직접 만든 수많은 문법 규칙과 사전을 기반으로 하는 규칙 기반(rule-based) 접근법이 주를 이루었다.39 이 방식은 언어의 복잡성, 모호성, 그리고 수많은 예외를 규칙만으로 완벽하게 포착하기 어렵다는 근본적인 한계에 부딪혔다.40
이러한 배경 속에서 1980년대 후반, IBM의 Thomas J. Watson 연구소의 한 연구팀은 기계 번역에 대한 완전히 새로운 접근법을 제시하며 NLP 분야에 혁명을 일으켰다.41 그들의 아이디어는 번역을 언어학적 규칙의 적용이 아닌, 통계적 확률 문제로 재정의하는 것이었다.43 이들의 연구는 통계적 기계 번역(Statistical Machine Translation, SMT) 시대의 서막을 열었다.
SMT의 핵심 철학은 클로드 섀넌의 정보 이론에서 유래한 ’잡음 채널 모델(Noisy Channel Model)’에 기반한다.17 프랑스어 문장 f를 영어 문장 e로 번역하는 문제를 예로 들면, 이 모델은 원래의 영어 문장 e가 ‘잡음이 많은 채널’을 통과하면서 프랑스어 문장 f로 변형되었다고 가정한다. 따라서 번역의 목표는 주어진 f에 대해 원래의 e였을 확률, 즉 P(e|f)를 최대화하는 e를 찾는 것이 된다. 베이즈 정리(Bayes’ theorem)에 의해 이 문제는 다음과 같이 변환될 수 있다 44:
\hat{e} = \arg\max_{e} P(e|f) = \arg\max_{e} \frac{P(f|e)P(e)}{P(f)} = \arg\max_{e} P(f|e)P(e)
이 방정식은 번역 문제를 두 개의 독립적인 확률 모델로 분리한다.
-
번역 모델 (Translation Model), P(f|e): 영어 문장 e가 주어졌을 때, 이것이 프랑스어 문장 f로 번역될 확률을 나타낸다. 이 모델은 두 언어 간의 단어 및 구문 대응 관계를 학습한다.
-
언어 모델 (Language Model), P(e): 영어 문장 e 자체가 얼마나 자연스럽고 문법적으로 올바른지를 평가하는 확률 모델이다. 예를 들어, “the cat sat on the mat“은 높은 확률을, “sat the on mat cat“은 낮은 확률을 갖게 된다.
이 두 모델을 결합함으로써, 번역 모델은 번역의 ’충실성(fidelity)’을, 언어 모델은 결과물의 ’유창성(fluency)’을 보장하게 된다. IBM 연구팀은 이 모델들을 학습시키기 위해 캐나다 의회 회의록(Hansards)과 같이 동일한 내용이 두 언어로 기록된 대규모 병렬 말뭉치(parallel corpus)를 사용했다.44 번역 모델 학습의 핵심 과제는 문장 쌍 내에서 어떤 단어가 어떤 단어에 대응되는지를 확률적으로 추정하는 ’단어 정렬(word alignment)’이었으며, 이를 위해 점차 정교해지는 IBM Model 1부터 5까지의 통계 모델을 개발했다.17
1987년 당시, IJCAI-87에서 발표된 Tomita와 Carbonell의 “The Universal Parser Architecture for Knowledge-based Machine Translation” 과 같은 연구는 여전히 지식 기반 접근법이 학계의 주류였음을 보여준다.7 그러나 물밑에서는 IBM의 선구적인 연구를 필두로, NLP가 규칙에서 데이터와 확률의 시대로 넘어가는 거대한 패러다임 전환이 이미 시작되고 있었다.
5.2 형상을 포착하는 동적 모델: ’스네이크’와 컴퓨터 비전
컴퓨터 비전 분야 역시 1987년에 중요한 이정표를 세웠다. 그 해 런던에서 열린 제1회 국제 컴퓨터 비전 학회(ICCV)에서 Michael Kass, Andrew Witkin, Demetri Terzopoulos가 발표한 “Snakes: Active Contour Models” 라는 논문은 객체 분할(object segmentation)과 형상 모델링에 대한 새로운 접근법을 제시하며 큰 반향을 일으켰다.45
’스네이크’는 이미지 내에서 객체의 윤곽선을 찾기 위해 사용되는 능동적 윤곽선 모델(active contour model)이다.47 기존의 에지 검출(edge detection)과 같은 방법들이 이미지 전체를 처리하여 에지 픽셀들의 집합을 출력하는 수동적인 방식이었던 반면, 스네이크는 사용자가 대략적인 위치에 초기 곡선을 그려주면, 이 곡선이 마치 살아있는 뱀처럼 스스로 움직이고 변형하여 주변의 가장 두드러진 윤곽선에 달라붙는 동적인 모델이다.48
스네이크의 행동은 물리적 원리에 기반한 에너지 최소화(energy minimization) 과정으로 수학적으로 정교하게 정의된다. 스네이크 곡선 v(s) = (x(s), y(s))의 전체 에너지는 다음과 같은 적분 형태로 표현된다 48:
E_{snake} = \int_{0}^{1} E_{total}(v(s)) ds = \int_{0}^{1} [E_{internal}(v(s)) + E_{image}(v(s)) + E_{con}(v(s))] ds
이 에너지 함수는 세 가지 주요 구성 요소로 이루어진다.
-
E_{internal} (내부 에너지): 곡선 자체의 물리적 특성을 나타낸다. 이는 곡선의 길이(탄성 에너지)와 곡률(굽힘 에너지)에 의해 결정되며, 스네이크가 끊어지거나 심하게 구부러지는 것을 막고 부드러운 형태를 유지하도록 하는 제약 조건 역할을 한다.
-
E_{image} (이미지 에너지): 이미지 데이터로부터 계산되는 힘을 나타낸다. 이미지에서 밝기가 급격하게 변하는 경계선(edge)이나 어두운 선(line)이 있는 위치에서 낮은 에너지 값을 갖도록 설계된다. 이 힘은 스네이크를 이미지의 주요 특징(salient features)으로 끌어당기는 역할을 한다.
-
E_{con} (외부 제약 에너지): 사용자의 상호작용이나 다른 상위 수준의 정보로부터 주어지는 제약 조건을 나타낸다. 예를 들어, 사용자가 특정 지점을 클릭하여 스네이크를 그쪽으로 밀어주는 힘을 가할 수 있다.
스네이크는 이 전체 에너지 E_{snake}가 최소가 되는 형태로 수렴할 때까지 반복적으로 자신의 모양을 수정한다. 이 접근법은 저수준의 이미지 특징(에지, 선)과 고수준의 제약 조건(부드러움, 사용자 입력)을 하나의 통합된 프레임워크 안에서 우아하게 결합하는 방법을 제공했다.
1987년 IJCAI에서 발표된 Jitendra Malik의 “Recovering Three Dimensional Shape from a Single Image of Curved Objects” 나 Geiger와 Poggio의 “An Optimal Scale for Edge Detection” 과 같은 연구들은 3D 형상 복원, 에지 검출 등 컴퓨터 비전의 근본적인 문제들을 다루고 있었다.7 스네이크는 이러한 저수준의 시각 정보를 활용하여 객체 분할이라는 더 높은 수준의 과업을 수행하는 강력하고 유연한 도구를 제공함으로써, 이 시기 컴퓨터 비전 연구의 중요한 진전을 이루었다.49
SMT와 스네이크 모델은 서로 다른 분야의 연구지만, 그 기저에는 공통된 철학적 전환이 존재한다. 두 접근법 모두 순수한 논리나 발견적 규칙(heuristics)에서 벗어나, 각각 정보 이론과 연속체 역학(continuum mechanics)이라는 물리 과학의 원리를 계산 문제에 적용했다. 잡음 채널 모델은 언어 현상을 통계 역학의 렌즈로 해석했으며, 스네이크 모델은 형상 찾기 문제를 에너지 최소화라는 물리적 최적화 문제로 변환했다. 이는 AI가 복잡하고 불확실한 현실 세계의 문제를 해결하기 위해 더 원리적이고 강력한 수학적 프레임워크를 도입하기 시작했음을 보여주는 중요한 신호였다.
6. 결론: 1987년이 남긴 유산과 현대 AI에 미친 영향
1987년은 인공지능 역사에서 모순과 전환으로 가득 찬 한 해였다. 표면적으로는 LISP 머신 시장의 붕괴와 전문가 시스템에 대한 기대감 하락으로 인해 ’두 번째 AI 겨울’이 시작된 해로 기억된다. 그러나 그 이면에서는 상징주의 AI의 한계를 극복하고 미래를 열어갈 새로운 패러다임들이 학문적으로 폭발적으로 성장한 ’지적인 봄’이기도 했다. 낡은 접근법의 쇠퇴는 새로운 시대의 서막을 알리는 전주곡이었으며, 1987년에 뿌려진 씨앗들은 수십 년이 지난 오늘날 현대 AI 기술의 근간을 이루고 있다.
1987년의 가장 큰 유산은 AI 연구의 중심축이 규칙 기반의 상징주의에서 데이터와 확률, 그리고 동역학에 기반한 새로운 접근법으로 이동하는 결정적인 계기를 마련했다는 점이다. 각 분야에서 일어난 혁신은 현대 AI 기술에 직접적인 영향을 미쳤다.
-
딥러닝의 뿌리: 제1회 NIPS 학회에서 논의된 역전파 알고리즘의 확장은 현대 딥러닝의 직접적인 기원이다. 특히 Fernando Pineda가 제시한 순환 신경망(RNN)으로의 역전파 일반화는 시간적 데이터를 다루는 딥러닝 아키텍처의 이론적 토대를 마련했다. 이는 오늘날 자연어 처리 분야를 지배하는 LSTM, GRU, 그리고 트랜스포머 모델로 이어지는 계보의 시작점이었다.
-
데이터 기반 접근법의 승리: IBM 연구소에서 시작된 통계적 기계 번역(SMT) 연구는 자연어 처리 분야가 소수의 전문가가 만든 규칙에 의존하는 대신, 대규모 데이터에서 통계적 패턴을 학습하는 방향으로 전환되는 패러다im shift를 이끌었다. 이 데이터 기반 철학은 구글 번역과 같은 상용 SMT 시스템의 성공을 거쳐, 현재의 대규모 언어 모델(LLM)이 방대한 텍스트 데이터로부터 언어의 복잡한 구조를 학습하는 방식으로 계승되었다.
-
로보틱스 철학의 정립: 1987년 ICRA에서 동시에 제시된 로드니 브룩스의 행동 기반 로보틱스와 오사마 카팁, 네빌 호건의 모델 기반 제어 이론은 오늘날까지도 로보틱스 분야의 두 가지 핵심적인 철학적, 기술적 축을 형성하고 있다. 현대의 로봇들은 종종 환경 변화에 빠르게 반응해야 할 때는 행동 기반의 반응형 제어를, 정밀한 조작이 필요할 때는 모델 기반의 심사숙고형 제어를 사용하는 하이브리드 형태로 설계되며, 이는 1987년에 정립된 두 패러다임의 통합적 발전이라 할 수 있다.
-
컴퓨터 비전의 표준 기술: Kass, Witkin, Terzopoulos가 제안한 ‘스네이크’ 모델은 물리 기반 모델링과 에너지 최소화라는 강력한 프레임워크를 컴퓨터 비전에 도입했다. 이 능동적 윤곽선 모델과 그 변형들은 이후 의료 영상 분석에서의 장기 분할, 객체 추적, 이미지 편집 등 다양한 응용 분야에서 핵심적인 기술로 자리 잡았다.
결론적으로, 1987년은 AI가 이상화된 ’장난감 문제(toy problem)’의 한계를 넘어, 불확실하고 동적인 실제 세계의 문제들을 다루기 위해 확률, 통계, 동역학, 그리고 생물학적 영감과 같은 새로운 도구들을 본격적으로 받아들이기 시작한 해였다. 따라서 1987년의 ’겨울’은 AI의 종말이 아니라, 더 강력하고 실용적이며 강건한 AI를 향한 정화와 재탄생의 과정이었다고 평가할 수 있다. 이 해에 시작된 패러다임의 전환은 오늘날 우리가 경험하고 있는 AI 혁명의 지적인 토대를 마련했다.
표 2: 1987년 AI 패러다임 비교
| 패러다임 | 주요 아이디어 (Key Idea) | 접근 방식 (Approach) | 강점 (Strengths) | 한계 (Limitations) |
|---|---|---|---|---|
| 상징주의 AI | 인간의 지능은 기호(symbol)와 규칙(rule)을 통해 표현되고 조작될 수 있다. | 논리학, 기호 처리, 전문가가 만든 지식 베이스와 추론 엔진을 사용한다. | 명시적인 지식 표현이 가능하며, 추론 과정을 인간이 이해하고 설명하기 용이하다. | 불확실하고 애매한 실제 세계의 문제를 다루기 어렵고, 새로운 지식 습득이 어렵다 (취약성). |
| 연결주의 | 뇌의 신경망 구조를 모방한 계산 모델(인공 신경망)을 통해 학습하고 지능을 구현한다. | 데이터로부터 패턴을 학습하는 역전파 알고리즘과 같은 통계적 학습 방법을 사용한다. | 데이터로부터 스스로 학습할 수 있으며, 복잡하고 비선형적인 패턴 인식에 강하다. | 학습 과정을 직관적으로 이해하기 어렵고(블랙박스 문제), 많은 양의 데이터와 계산 자원이 필요하다. |
| 행동 기반 로보틱스 | 지능은 복잡한 내부 표상(representation) 없이, 환경과의 상호작용을 통한 단순한 행동들의 결합으로 발현된다. | 중앙 통제 없이 분산된 모듈들이 감각-행동(sense-act) 메커니즘에 따라 즉각적으로 반응한다. | 실제 환경의 변화에 강건하고 빠르게 반응하며, 복잡한 모델링 없이도 효율적인 동작이 가능하다. | 장기적인 계획이나 추상적인 추론을 수행하는 데 한계가 있으며, 정밀한 작업에는 부적합하다. |
| 통계적 NLP | 언어는 규칙의 집합이 아니라, 대규모 말뭉치(corpus)에서 추출된 통계적 확률 모델로 이해해야 한다. | 확률 이론과 정보 이론에 기반하여 단어와 문장의 등장 패턴을 통계적으로 모델링한다. | 실제 언어 데이터에 기반하므로 견고하며, 규칙으로 포착하기 어려운 미묘한 언어 현상도 처리할 수 있다. | 대규모 데이터 구축이 필수적이며, 문장의 깊은 의미나 문맥을 이해하는 데는 한계가 있다. |
7. 참고 자료
- AI winter - Wikipedia, https://en.wikipedia.org/wiki/AI_winter
- en.wikipedia.org, https://en.wikipedia.org/wiki/Expert_system#:~:text=Expert%20systems%20were%20among%20the,of%20successful%20artificial%20neural%20networks.
- Expert system - Wikipedia, https://en.wikipedia.org/wiki/Expert_system
- AI Winter: The Highs and Lows of Artificial Intelligence - History of Data Science, https://www.historyofdatascience.com/ai-winter-the-highs-and-lows-of-artificial-intelligence/
- The AI Winter Chronicles: Understanding the Rise, Fall, and Lessons from History - Medium, https://medium.com/@nagarajuperuru/the-ai-winter-chronicles-understanding-the-rise-fall-and-lessons-from-history-eccc46fa62e1
- AAAI-87: Sixth National Conference on Artificial Intelligence - AAAI, https://aaai.org/conference/aaai/aaai87/
- Proceedings of the Tenth International Joint Conference on Artificial …, https://www.ijcai.org/proceedings/1987-2
- IJCAI 87 : proceedings of the Tenth International Joint Conference on Artificial Intelligence, August 23-28, 1987, https://catalog.nlm.nih.gov/discovery/fulldisplay/alma996562803406676/01NLM_INST:01NLM_INST
- Proceedings 1987 IEEE International Conference on Robotics and Automation - Google Books, https://books.google.com/books/about/Proceedings_1987_IEEE_International_Conf.html?id=o6iT0AEACAAJ
- Proceedings of the 1987 IEEE International Conference on Robotics …, https://researchr.org/publication/icra-1987
- Neural Information Processing Systems 0 (NIPS 1987), https://proceedings.neurips.cc/paper/1987
- The first NIPS/NeurIPS - Yaser S. Abu-Mostafa, https://www.work.caltech.edu/neurips.html
- AAAI 1987 Proceedings - Association for the Advancement of Artificial Intelligence, https://www.aiinternational.org/Press/Proceedings/aaai87.php
- How the backpropagation algorithm works - Neural networks and deep learning, http://neuralnetworksanddeeplearning.com/chap2.html
- Deep Learning in a Nutshell: History and Training | NVIDIA Technical Blog, https://developer.nvidia.com/blog/deep-learning-nutshell-history-training/
- History of artificial neural networks - Wikipedia, https://en.wikipedia.org/wiki/History_of_artificial_neural_networks
- IBM Statistical Machine Translation - From Rules to Data - Interactive | Michael Brenndoerfer, https://mbrenndoerfer.com/writing/history-statistical-mt-ibm-models
-
- AI Winter and Funding Challenges - The ARF - Advertising Research Foundation, https://thearf.org/ai-handbook/ai-winter-and-funding-challenges/
- Neural Information Processing Systems - Bionity, https://www.bionity.com/en/encyclopedia/Neural_Information_Processing_Systems.html
- NIPS 1987 | OpenReview, https://openreview.net/group?id=dblp.org/conf/NIPS/1987
- Neural Information Processing Systems 1987, https://sigmod.org/publications/dblp////db/conf/nips/nips1987.html
- Autonomous navigation of mobile robots: from basic sensing to problem solving - IMEKO, https://www.imeko.org/publications/tc4-2014/IMEKO-TC4-2014-387.pdf
- (PDF) New Approaches to Robotics - ResearchGate, https://www.researchgate.net/publication/6010079_New_Approaches_to_Robotics
- A BRIEF INTRODUCTION TO BEHAVIOR-BASED ROBOTICS, https://baibook.epfl.ch/exercises/behaviorBasedRobotics/BBSummary.pdf
- Subsumption architecture - Wikipedia, https://en.wikipedia.org/wiki/Subsumption_architecture
- Creature Design with the Subsumption Architecture - IJCAI, https://www.ijcai.org/Proceedings/87-2/Papers/108.pdf
- A Unified Approach for Motion and Force Control … - Oussama Khatib, https://khatib.stanford.edu/publications/pdfs/Khatib_1987_RA.pdf
- A unified approach for motion and force control of robot manipulators: The operational space formulation - ScienceOpen, https://www.scienceopen.com/document?vid=96440769-0c48-4000-90aa-b161a66bf585
- The Operational Space Framework - Oussama Khatib, https://khatib.stanford.edu/publications/pdfs/Khatib_1993_JSME.pdf
- Inertial Properties in Robotic Manipulation: An Object-Level Framework¹ - Oussama Khatib, https://khatib.stanford.edu/publications/pdfs/Khatib_1995.pdf
- Operational Space Control of Constrained and … - Robotics, https://www.roboticsproceedings.org/rss07/p31.pdf
- PDF 600 dpi - Oussama Khatib, https://khatib.stanford.edu/publications/pdfs/Khatib_1988_3.pdf
- [PDF] Impedance Control: An Approach to Manipulation - Semantic Scholar, https://www.semanticscholar.org/paper/Impedance-Control%3A-An-Approach-to-Manipulation-Hogan/f5f8a6aa4adc13070224c2bd43a255c4e0844c15
- Impedance Control: An Approach to Manipulation:, https://summerschool.stiff-project.org/fileadmin/pdf/Hog1985.pdf
- Contact and Physical Interaction - Annual Reviews, https://www.annualreviews.org/doi/pdf/10.1146/annurev-control-042920-010933
- Understanding the Implementation of Impedance Control in Industrial Robots, https://www.researchgate.net/publication/308246185_Understanding_the_Implementation_of_Impedance_Control_in_Industrial_Robots
- Stability Robustness of Impedance Controlled - Coupled to Passive Environments - DSpace@MIT, https://dspace.mit.edu/bitstream/handle/1721.1/14805/17420296-MIT.pdf?sequence=2&isAllowed=y
- Impedance Control: An Approach to Manipulation: Part III—Applications - Scilit, https://www.scilit.com/publications/d102d1203dd6b5206e4c93d97d5a5427
- Master NLP History: From Then to Now - Shelf.io, https://shelf.io/blog/master-nlp-history-from-then-to-now/
- History and Evolution of NLP - GeeksforGeeks, https://www.geeksforgeeks.org/nlp/history-and-evolution-of-nlp/
- Moses/Background - Statmt.org, http://www2.statmt.org/moses/?n=moses.background
- en.wikipedia.org, https://en.wikipedia.org/wiki/Statistical_machine_translation#:~:text=Statistical%20machine%20translation%20was%20re,widely%20studied%20machine%20translation%20method.
- Statistical Machine Translation: A Data Driven Translation Approach, https://mardiyyah.medium.com/statistical-machine-translation-a-data-driven-translation-approach-8a5dc15ba057
- Statistical Machine Translation: IBM Models 1 and 2 - CS@Columbia, http://www.cs.columbia.edu/~mcollins/ibm12.pdf
- [PDF] Snakes: Active contour models - Semantic Scholar, https://www.semanticscholar.org/paper/Snakes%3A-Active-contour-models-Kass-Witkin/9394a5d5adcb626128b6a42c8810b9505a3c6487
- Kass, M., Witkin, A. and Terzopoulos, D. (1987) Snakes Active Contour Models. IEEE First International Conference on Computer Vision, London, 8-11 June 1987, 259-268. - References - Scientific Research Publishing, https://www.scirp.org/reference/referencespapers?referenceid=2940768
- Active Contours, Deformable Models, and Gradient Vector Flow - IACL, https://iacl.ece.jhu.edu/Projects/gvf/
- w - Scientific Computing and Imaging Institute, https://www.sci.utah.edu/~gerig/CS6640-F2010/Snakes-Kass-Witkin-Terzopoulos.pdf
- Computer Vision History: 1980 to 1990s | Infoscribe.ai Blog, https://infoscribe.ai/blog/computer-vision-history-1980-late-1990s
- Computer Vision in the 1980s: The Quiet Decade of Key Advancements - Turing Post, https://www.turingpost.com/p/cvhistory3
- Computer vision: What will stand the test of time?, https://slazebni.cs.illinois.edu/fall23/history.pdf